Dein Profil Basic: Du bist ausgebildeter Fachinformatiker (m/w/d), verfügst über einen Studienabschluss im Bereich der (Wirtschafts-)Informatik oder bist ein programmieraffiner Quereinsteiger (m/w/d)? Du verfügst über Wissen in einem oder mehreren der folgenden Bereiche: C#, .net Core, Entity Framework, JavaScript, Go, Flutter (Dart), DevOps (Docker, Azure), Natural Programming Language (Software AG).
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementieren Python-Programmierung Aufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generieren Entwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu können Aufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-Systems Konzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-How Fundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit Python Erfahrung in der Frontend- und Backend-Entwicklung Kenntnisse in Django/HTMX von Vorteil Erste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data Warehouse Kenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes Betätigungsfeld Attraktive Weiterentwicklungsmöglichkeiten 38-Stunden-Woche Remote-Work möglich Jobrad Gute Erreichbarkeit mit dem Auto und dem ÖPNV Individuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementierenPython-ProgrammierungAufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generierenEntwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu könnenAufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-SystemsKonzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-HowFundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit PythonErfahrung in der Frontend- und Backend-EntwicklungKenntnisse in Django/HTMX von VorteilErste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data WarehouseKenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes BetätigungsfeldAttraktive Weiterentwicklungsmöglichkeiten38-Stunden-WocheRemote-Work möglichJobradGute Erreichbarkeit mit dem Auto und dem ÖPNVIndividuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
Dein Profil Basic: Du bist ausgebildeter Fachinformatiker (m/w/d), verfügst über einen Studienabschluss im Bereich der (Wirtschafts-)Informatik oder bist ein programmieraffiner Quereinsteiger (m/w/d)? Du verfügst über Wissen in einem oder mehreren der folgenden Bereiche: C#, .net Core, Entity Framework, JavaScript, Go, Flutter (Dart), DevOps (Docker, Azure), Natural Programming Language (Software AG).
Ihre Aufgaben: Konzeption, Modellierung und Realisierung von Datawarehouse-/BI-Lösungen zusammen mit IT-Leitung und Fachkolleg*innenEntwicklung, Wartung und Optimierung von ETL-/ELT-Prozessen und DatenbankenDatenbankprogrammierung, Datenmodellierung und Prozessoptimierung zur DatenbereitstellungErfassung fachlicher Anforderungen und Umsetzung von Datenflüssen und -strukturenDurchführung von Ad-hoc-Analysen, Berichtserstellung und Dokumentationen Ihr Profil: Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Statistik, BWL oder vergleichbare Ausbildung (Quereinsteiger mit Erfahrung willkommen)Erfahrung in Datenbankprogrammierung (SQL), Datenmodellierung und Entwicklung von ETL-/ELT-StreckenIdealerweise Kenntnisse in Microsoft Azure Data Diensten (z.